Ад заказаў піцы да разумных хатніх камер, эмпатычны штучны інтэлект цяпер падштурхоўвае нас да прыняцця рашэнняў у рэжыме рэальнага часу. Ці можам мы паспяваць? Гук тэлефона ў 8:03 вечара, канец доўгага дня. Гэта тэкставае паведамленне ад Джымі Серфера з 44-гадовай каліфарнійскай сеткі Pizza My Heart: «Галодны? Як наконт той камбінацыі ананаса і вяндліны, якую ты любіш?» У яго нязмушаны, нязмушаны тон, але ёсць адна загваздка: Джымі не сапраўдны серфер - і нават не сапраўдны чалавек. Замест гэтага ён чат-бот са штучным інтэлектам, старанна навучаны размаўляць пра піцу і мякка пераконваць вас зрабіць гэты заказ. Безумоўна, размова здаецца прыязнай – нават суцяшальнай – але за гэтым вясёлым серферскім жаргонам хаваецца алгарытм, які ведае, калі вы, хутчэй за ўсё, скажаце «так». І тут узнікае пытанне: гэта бяскрыўдная зручнасць або тонкая форма маніпуляцыі? На першы погляд, няма нічога дрэннага ў крыху зручнасці. Асабліва калі вы галодныя і занадта стомленыя, каб пракручваць бясконцыя варыянты ежы. Але новая хваля эмпатычнага штучнага інтэлекту выходзіць за рамкі хуткага абслугоўвання або рэкамендацый прадукту. Такія чат-боты, як Jimmy, узброеныя тонкім слыхам і размовай, спецыяльна створаны для таго, каб задзейнічаць вашы перавагі і настрой. Яны робяць больш, чым проста прымаюць ваш заказ - яны падштурхоўваюць вас да яго. Эмацыянальна разумная тэхналогія Palona AI, стартап, які забяспечвае Джымі Серфера, лічыць, што гэта можа палегчыць жыццё работнікам сеткі. Генеральны дырэктар і сузаснавальнік кампаніі Марыя Чжан распавяла , што тэхналогія «пабудавана з моўнай мадэллю «эмацыйнага інтэлекту», распрацаванай для эфектыўнасці продажаў; бот знаёмы з такімі рэчамі, як гумар, сучасны этыкет абмену паведамленнямі і «мяккае перакананне». Wired Але тая самая эмпатыя, якая робіць узаемадзеянне цёплым і чалавечным, таксама можа сціраць мяжу паміж абслугоўваннем кліентаў і маніпуляцыяй. Дзе менавіта ляжыць мяжа паміж сэрвісам, які дапамагае нам, і сэрвісам, які ўплывае на наш выбар? Калі мы пераходзім ад рэкамендацый да маніпуляцый і ставім пад пагрозу аўтаномію спажыўцоў? Гэтае пытанне не тэарэтычнае. Кампанія Wyze з Сіэтла, якая прадае камеры бяспекі, неўзабаве разгорне тэхналогію Palona AI на сваім вэб-сайце ў якасці майстра, які дапаможа пакупнікам знайсці лепшы прадукт для іх патрэб. Майстар, вядома, падштурхоўвае кліентаў да лінейкі Wyze – і пры кожнай магчымасці прадае план Wyze Cam Plus. Зусім як сапраўдны прадавец. Ён таксама можа стварыць ваш профіль кліента і запомніць вашы перавагі (і праблемы) на наступны раз. Palona AI ужо працуе з чат-ботам у MindZero, спа-цэнтры кантраснай тэрапіі ў Паўднёвай Караліне. Кліенты могуць адпраўляць паведамленні кампаніі ў Instagram з любым пытаннем - ад запытаў аб цэнах да асабістых пытанняў, напрыклад, ці можна быць голым у сауне. Чжан выказаў здагадку, што апошняе пытанне можа быць няёмка задаць чалавеку, але мы не можам быць упэўнены, што штучны інтэлект мае значэнне: бот MindZero не кажа, што гэта штучны інтэлект. Як і Джымі Серфер. І тут усё становіцца цьмяным. Навігацыя па правілах Гэтая цьмянасць вынікае з таго, што карыстальнікі не заўсёды ведаюць, што размаўляюць з ботам. Palona AI, Pizza My Heart, MindZero і Wyze знаходзяцца ў ЗША, і заканадаўства ЗША не патрабуе раскрыцця інфармацыі. Але Закон ЕС аб штучным інтэлекте робіць. Закон ЕС аб штучным інтэлекце мае іншы падыход да рэгулявання, які патрабуе, каб карыстальнікі ведалі, што яны ўзаемадзейнічаюць з штучным інтэлектам. У ЕС таксама дзейнічаюць законы аб канфідэнцыяльнасці, такія як Агульны рэгламент аб абароне даных (GDPR), але гэта не абараняе эмацыйныя даныя, якія выкарыстоўваюць гэтыя боты. У той час як Закон аб штучным інтэлекте ЕС і GDPR замацоўваюць такія важныя прынцыпы, як празрыстасць, мінімізацыя даных і нагляд на аснове рызыкі, яны не цалкам дагналі штучны інтэлект, які запраграмаваны на апрацоўку эмоцый. Разуменне тонкай грані паміж кіраўніцтвам і маніпуляцыяй важна для палітыкаў, а таксама для спажыўцоў: як мы можам давяраць сістэмам, якія спрабуюць высветліць, чаго мы хочам? Закон ЕС аб AI: празрыстасць, але абмежаваная сфера прымянення Закон аб штучным інтэлекте ЕС, які ўсё яшчэ знаходзіцца ў стадыі ўдасканалення, выкарыстоўвае класіфікацыю, заснаваную на рызыцы. Сістэмы, якія лічацца высокімі рызыкамі - напрыклад, сістэмы аховы здароўя або крытычнай інфраструктуры - сутыкаюцца з больш жорсткімі патрабаваннямі: поўная дакументацыя, аўдыт і нагляд. Але чат-бот або гандлёвы памочнік, які заказвае піцу, звычайна не адносяцца да высокай рызыкі. Гэта азначае, што эмпатычны штучны інтэлект, распрацаваны, каб падштурхнуць вас да дадатковых начынняў, або план Cam Plus, цалкам можа абысці самыя жорсткія агароджы закона. Патрабаванне празрыстасці (у артыкуле 52) патрабуе раскрыцця інфармацыі аб тым, што карыстальнікі ўзаемадзейнічаюць з ІІ. Але на практыцы гэта таксама лёгка прапусціць або праігнараваць - асабліва калі ІІ глыбока ўплецены ў звычайныя тэкставыя каналы. Для кампаній з ЕС, якія жадаюць выкарыстоўваць эмпатычныя чат-боты, гэта мае наступствы. Закон аб штучным інтэлекце ЕС не перашкаджае разгортванню LLM, якія імітуюць эмпатыю; гэта проста патрабуе асноўнай адмовы ад адказнасці. Аднаго сказу «Прывітанне, я памочнік штучнага інтэлекту» можа быць дастаткова для выканання юрыдычных абавязацельстваў, але гэта не вырашае этычных праблем. У рэшце рэшт, мы цяпер ведаем, калі размаўляем з аддзелам продажаў або абслугоўвання кліентаў, і выкарыстоўваем гэтую інфармацыю ў нашых рашэннях. Тым не менш, калі ваш бізнес хоча наладзіць моўную мадэль для спецыфічнага брэнда «мяккага пераканання», магчыма, вам не трэба праходзіць такі ж узровень праверкі адпаведнасці, як таму, хто стварае, скажам, сістэму медыцынскага штучнага інтэлекту. GDPR: асабістыя супраць канфідэнцыйных даных Між тым, GDPR класіфікуе некаторыя катэгорыі даных, напрыклад, даныя пра здароўе або біяметрычныя даныя, як «асаблівую катэгорыю», забяспечваючы ім павышаную абарону. Эмацыйныя даныя (яшчэ!) не былі ўнесены ў гэтую скрынку, таму штучны інтэлект, які мякка ўгаворвае карыстальніка набыць больш, можа не апрацоўваць даныя, прызнаныя канфідэнцыяльнымі па змаўчанні. GDPR па-ранейшаму прадугледжвае мінімізацыю даных і выразную згоду карыстальніка на любы збор або апрацоўку асабістых даных. Але ў многіх рэальных сітуацыях, такіх як паведамленне MindZero пра этыкет сауны, карыстальнікі свядома не разумеюць, што перадаюць эмацыянальныя сігналы. Або любыя дадзеныя, насамрэч, як шырокі сцяжок T&C або банер згоды на файлы cookie часта прымаюць за інфармаваную згоду. Калі вы жангліруеце велізарнымі канвеерамі ўзаемадзеяння з карыстальнікам для перападрыхтоўкі мадэляў, гэты эмацыйны кантэкст можа, аднак, праслізнуць праз шчыліны. На дадзены момант большасць органаў па абароне даных сканцэнтраваны на відавочных парушэннях прыватнасці або сур'ёзных парушэннях даных; тонкае перакананне наўрад ці прывядзе да расследавання, пакуль не будзе гучная скарга. Што наконт бяспекі даных? Эмпатычны AI дадае новы ўзровень рызыкі бяспекі даных: эмацыйныя даныя. Каманды бяспекі павінны разгледзець пытанне аб тым, як захоўваць узаемадзеянне карыстальнікаў (магчыма, выяўляючы стрэс, асабістыя працэдуры або прыватныя праблемы) і хто мае доступ. Нават калі бізнес прытрымліваецца шыфравання і практыкі галіновага стандарту, каштоўнасць эмацыйных даных можа прыцягнуць кепскіх удзельнікаў, зацікаўленых у выкарыстанні прыватных уразлівасцяў. Калі ваш канвеер рэгіструе кожны запыт карыстальніка, вы можаце ненаўмысна назапасіць скарб канфідэнцыйнай інфармацыі. Існуючыя нарматыўныя акты толькі часткова закранаюць даныя, нагружаныя настроямі, таму вашым службам бяспекі трэба будзе прымяніць свае ўласныя меры бяспекі. Нарматыўная сляпая зона Увогуле, ні Закон аб штучным інтэлекце ЕС, ні GDPR не разглядаюць у поўнай меры эмацыйна разумныя сістэмы штучнага інтэлекту, якія пераконваюць карыстальнікаў у паўсядзённых пакупках. Для прадпрыемстваў гэтая нарматыўная дзяржава дае як магчымасць, так і рызыку: магчымасць укараняць інавацыі без непасрэднага жорсткага кантролю, але таксама рызыка пагаршэння рэпутацыі або будучай праверкі, калі рэгулятары вырашаць, што тонкае эмацыйнае падштурхоўванне пераходзіць мяжу. Для карыстальнікаў гэта складана. Такім чынам, калі ў наступны раз у 20:03 ваш тэлефон прагудзіць з сяброўскім паведамленнем пра піцу, падумайце, што адбываецца на самой справе. Гэта можа быць штучны інтэлект пад тонкім глянцавым шпонам, які дзейнічае на вашу цягу, заахвочваючы вас саступіць. Так, гэта зручна. Але гэта таксама падкрэслівае ўсё большы разрыў паміж нашым жаданнем бесперашкоднага абслугоўвання і патрэбай у надзейных агароджах вакол штучнага інтэлекту. Пакуль правілы не дагоняць, цёплы, абнадзейлівы голас на іншым канцы можа быць больш чым карысным сябрам. Гэта можа быць бізнес-стратэгія, настроеная на ваш эмацыйны стан так, як вы ніколі не чакалі. Аўтар галоўнай выявы: Adobe Stock | #364586649